Как конфигурировать Storage DRS кластеры с PowerCLI – Часть 1.
Несмотря на растущую популярность технологии VMware vSAN, большинство крупных предприятий по-прежнему частично или полностью продолжают работать с общими хранилищами (shared storage). Есть достаточно PowerCLI командлетов для конфигурирования большинства аспектов HA/DRS кластеров, однако для SDRS кластеров выбор не велик. Таги: VMware, PowerCLI, SDRS, Storage
VMware vSphere VMkernel Observations (VOBs) - как создавать кастомные алармы для различных событий (alarms).
В VMware vSphere есть механизм для создания и анализа кастомных алармов - VMkernel Observations (VOBs). VOB'ы - это системные события, которые можно использовать для пользовательских алармов в целях отладки различных аспектов виртуальной инфраструктуры (сетевого взаимодействия, кластеров vSAN, производительности и т.п.).
Чтобы добавить такой аларм, нужно знать его уникальный идентификатор (ID), ассоциированный с конкретным типом события. Эти события и их ID можно посмотреть в следующем файле на хосте ESXi:
/usr/lib/vmware/hostd/extensions/hostdiag/locale/en/event.vmsg
Если же такой аларм срабатывает, то он записывается в следующий лог-файл:
/var/log/vobd.log
Для того, чтобы создать кастомный аларм на основе VOB, нужно при создании нового аларма выбрать пункт "specific event occuring on this object":

И далее добавить соответствующий идентификатор, например, такой:
esx.problem.vob.vsan.pdl.offline

Событий, для которых можно создать кастомные алармы, очень много. Вот некоторые из них:
| VOB ID |
VOB Description |
| esx.audit.vsan.clustering.enabled |
VSAN clustering services have been enabled. |
| esx.clear.vob.vsan.pdl.online |
VSAN device has come online. |
| esx.clear.vsan.clustering.enabled |
VSAN clustering services have now been enabled. |
| esx.clear.vsan.vsan.network.available |
VSAN now has at least one active network configuration. |
| esx.clear.vsan.vsan.vmknic.ready |
A previously reported vmknic now has a valid IP. |
| esx.problem.vob.vsan.lsom.componentthreshold |
VSAN Node: Near node component count limit. |
| esx.problem.vob.vsan.lsom.diskerror |
VSAN device is under permanent error. |
| esx.problem.vob.vsan.lsom.diskgrouplimit |
Failed to create a new disk group. |
| esx.problem.vob.vsan.lsom.disklimit |
Failed to add disk to disk group. |
| esx.problem.vob.vsan.pdl.offline |
VSAN device has gone offline. |
| esx.problem.vsan.clustering.disabled |
VSAN clustering services have been disabled. |
| esx.problem.vsan.lsom.congestionthreshold |
VSAN device Memory/SSD congestion has changed. |
| esx.problem.vsan.net.not.ready |
A vmknic added to VSAN network configuration doesn't have valid IP. Network is not ready. |
| esx.problem.vsan.net.redundancy.lost |
VSAN doesn't haven any redundancy in its network configuration. |
| esx.problem.vsan.net.redundancy.reduced |
VSAN is operating on reduced network redundancy. |
| esx.problem.vsan.no.network.connectivity |
VSAN doesn't have any networking configuration for use. |
| esx.problem.vsan.vmknic.not.ready |
A vmknic added to VSAN network configuration doesn't have valid IP. It will not be in use. |
| ad.event.ImportCertEvent |
Import certificate success |
| ad.event.ImportCertFailedEvent |
Import certificate failure |
| ad.event.JoinDomainEvent |
Join domain success |
| ad.event.JoinDomainFailedEvent |
Join domain failure |
| ad.event.LeaveDomainEvent |
Leave domain success |
| ad.event.LeaveDomainFailedEvent |
Leave domain failure |
| com.vmware.vc.HA.CreateConfigVvolFailedEvent |
vSphere HA failed to create a configuration vVol for this datastore and so will not be able to protect virtual machines on the datastore until the problem is resolved. Error: {fault} |
| com.vmware.vc.HA.CreateConfigVvolSucceededEvent |
vSphere HA successfully created a configuration vVol after the previous failure |
| com.vmware.vc.HA.DasHostCompleteDatastoreFailureEvent |
Host complete datastore failure |
| com.vmware.vc.HA.DasHostCompleteNetworkFailureEvent |
Host complete network failure |
| com.vmware.vc.VmCloneFailedInvalidDestinationEvent |
Cannot complete virtual machine clone. |
| com.vmware.vc.VmCloneToResourcePoolFailedEvent |
Cannot complete virtual machine clone. |
| com.vmware.vc.VmDiskConsolidatedEvent |
Virtual machine disks consolidation succeeded. |
| com.vmware.vc.VmDiskConsolidationNeeded |
Virtual machine disks consolidation needed. |
| com.vmware.vc.VmDiskConsolidationNoLongerNeeded |
Virtual machine disks consolidation no longer needed. |
| com.vmware.vc.VmDiskFailedToConsolidateEvent |
Virtual machine disks consolidation failed. |
| com.vmware.vc.datastore.UpdateVmFilesFailedEvent |
Failed to update VM files |
| com.vmware.vc.datastore.UpdatedVmFilesEvent |
Updated VM files |
| com.vmware.vc.datastore.UpdatingVmFilesEvent |
Updating VM Files |
| com.vmware.vc.ft.VmAffectedByDasDisabledEvent |
Fault Tolerance VM restart disabled |
| com.vmware.vc.guestOperations.GuestOperation |
Guest operation |
| com.vmware.vc.guestOperations.GuestOperationAuthFailure |
Guest operation authentication failure |
| com.vmware.vc.host.clear.vFlashResource.inaccessible |
Host's virtual flash resource is accessible. |
| com.vmware.vc.host.clear.vFlashResource.reachthreshold |
Host's virtual flash resource usage dropped below the threshold. |
| com.vmware.vc.host.problem.vFlashResource.inaccessible |
Host's virtual flash resource is inaccessible. |
| com.vmware.vc.host.problem.vFlashResource.reachthreshold |
Host's virtual flash resource usage exceeds the threshold. |
| com.vmware.vc.host.vFlash.VFlashResourceCapacityExtendedEvent |
Virtual flash resource capacity is extended |
| com.vmware.vc.host.vFlash.VFlashResourceConfiguredEvent |
Virtual flash resource is configured on the host |
| com.vmware.vc.host.vFlash.VFlashResourceRemovedEvent |
Virtual flash resource is removed from the host |
| com.vmware.vc.host.vFlash.defaultModuleChangedEvent |
Default virtual flash module is changed to {vFlashModule} on the host |
| com.vmware.vc.host.vFlash.modulesLoadedEvent |
Virtual flash modules are loaded or reloaded on the host |
| com.vmware.vc.npt.VmAdapterEnteredPassthroughEvent |
Virtual NIC entered passthrough mode |
| com.vmware.vc.npt.VmAdapterExitedPassthroughEvent |
Virtual NIC exited passthrough mode |
| com.vmware.vc.vcp.FtDisabledVmTreatAsNonFtEvent |
FT Disabled VM protected as non-FT VM |
| com.vmware.vc.vcp.FtFailoverEvent |
Failover FT VM due to component failure |
| com.vmware.vc.vcp.FtFailoverFailedEvent |
FT VM failover failed |
| com.vmware.vc.vcp.FtSecondaryRestartEvent |
Restarting FT secondary due to component failure |
| com.vmware.vc.vcp.FtSecondaryRestartFailedEvent |
FT secondary VM restart failed |
| com.vmware.vc.vcp.NeedSecondaryFtVmTreatAsNonFtEvent |
Need secondary VM protected as non-FT VM |
| com.vmware.vc.vcp.TestEndEvent |
VM Component Protection test ends |
| com.vmware.vc.vcp.TestStartEvent |
VM Component Protection test starts |
| com.vmware.vc.vcp.VcpNoActionEvent |
No action on VM |
| com.vmware.vc.vcp.VmDatastoreFailedEvent |
Virtual machine lost datastore access |
| com.vmware.vc.vcp.VmNetworkFailedEvent |
Virtual machine lost VM network accessibility |
| com.vmware.vc.vcp.VmPowerOffHangEvent |
VM power off hang |
| com.vmware.vc.vcp.VmRestartEvent |
Restarting VM due to component failure |
| com.vmware.vc.vcp.VmRestartFailedEvent |
Virtual machine affected by component failure failed to restart |
| com.vmware.vc.vcp.VmWaitForCandidateHostEvent |
No candidate host to restart |
| com.vmware.vc.vm.VmStateFailedToRevertToSnapshot |
Failed to revert the virtual machine state to a snapshot |
| com.vmware.vc.vm.VmStateRevertedToSnapshot |
The virtual machine state has been reverted to a snapshot |
| com.vmware.vc.vmam.AppMonitoringNotSupported |
Application Monitoring Is Not Supported |
| com.vmware.vc.vmam.VmAppHealthMonitoringStateChangedEvent |
vSphere HA detected application heartbeat status change |
| com.vmware.vc.vmam.VmAppHealthStateChangedEvent |
vSphere HA detected application state change |
| com.vmware.vc.vmam.VmDasAppHeartbeatFailedEvent |
vSphere HA detected application heartbeat failure |
| esx.audit.agent.hostd.started |
VMware Host Agent started |
| esx.audit.agent.hostd.stopped |
VMware Host Agent stopped |
| esx.audit.dcui.defaults.factoryrestore |
Restoring factory defaults through DCUI. |
| esx.audit.dcui.disabled |
The DCUI has been disabled. |
| esx.audit.dcui.enabled |
The DCUI has been enabled. |
| esx.audit.dcui.host.reboot |
Rebooting host through DCUI. |
| esx.audit.dcui.host.shutdown |
Shutting down host through DCUI. |
| esx.audit.dcui.hostagents.restart |
Restarting host agents through DCUI. |
| esx.audit.dcui.login.failed |
Login authentication on DCUI failed |
| esx.audit.dcui.login.passwd.changed |
DCUI login password changed. |
| esx.audit.dcui.network.factoryrestore |
Factory network settings restored through DCUI. |
| esx.audit.dcui.network.restart |
Restarting network through DCUI. |
| esx.audit.esxcli.host.poweroff |
Powering off host through esxcli |
| esx.audit.esxcli.host.reboot |
Rebooting host through esxcli |
| esx.audit.esximage.hostacceptance.changed |
Host acceptance level changed |
| esx.audit.esximage.install.novalidation |
Attempting to install an image profile with validation disabled. |
| esx.audit.esximage.install.securityalert |
SECURITY ALERT: Installing image profile. |
| esx.audit.esximage.profile.install.successful |
Successfully installed image profile. |
| esx.audit.esximage.profile.update.successful |
Successfully updated host to new image profile. |
| esx.audit.esximage.vib.install.successful |
Successfully installed VIBs. |
| esx.audit.esximage.vib.remove.successful |
Successfully removed VIBs |
| esx.audit.host.boot |
Host has booted. |
| esx.audit.host.maxRegisteredVMsExceeded |
The number of virtual machines registered on the host exceeded limit. |
| esx.audit.host.stop.reboot |
Host is rebooting. |
| esx.audit.host.stop.shutdown |
Host is shutting down. |
| esx.audit.lockdownmode.disabled |
Administrator access to the host has been enabled. |
| esx.audit.lockdownmode.enabled |
Administrator access to the host has been disabled. |
| esx.audit.maintenancemode.canceled |
The host has canceled entering maintenance mode. |
| esx.audit.maintenancemode.entered |
The host has entered maintenance mode. |
| esx.audit.maintenancemode.entering |
The host has begun entering maintenance mode. |
| esx.audit.maintenancemode.exited |
The host has exited maintenance mode. |
| esx.audit.net.firewall.config.changed |
Firewall configuration has changed. |
| esx.audit.net.firewall.disabled |
Firewall has been disabled. |
| esx.audit.net.firewall.enabled |
Firewall has been enabled for port. |
| esx.audit.net.firewall.port.hooked |
Port is now protected by Firewall. |
| esx.audit.net.firewall.port.removed |
Port is no longer protected with Firewall. |
| esx.audit.net.lacp.disable |
LACP disabled |
| esx.audit.net.lacp.enable |
LACP eabled |
| esx.audit.net.lacp.uplink.connected |
uplink is connected |
| esx.audit.shell.disabled |
The ESXi command line shell has been disabled. |
| esx.audit.shell.enabled |
The ESXi command line shell has been enabled. |
| esx.audit.ssh.disabled |
SSH access has been disabled. |
| esx.audit.ssh.enabled |
SSH access has been enabled. |
| esx.audit.usb.config.changed |
USB configuration has changed. |
| esx.audit.uw.secpolicy.alldomains.level.changed |
Enforcement level changed for all security domains. |
| esx.audit.uw.secpolicy.domain.level.changed |
Enforcement level changed for security domain. |
| esx.audit.vmfs.lvm.device.discovered |
LVM device discovered. |
| esx.audit.vmfs.volume.mounted |
File system mounted. |
| esx.audit.vmfs.volume.umounted |
LVM volume un-mounted. |
| esx.clear.coredump.configured |
A vmkcore disk partition is available and/or a network coredump server has been configured. Host core dumps will be saved. |
| esx.clear.coredump.configured2 |
At least one coredump target has been configured. Host core dumps will be saved. |
| esx.clear.net.connectivity.restored |
Restored network connectivity to portgroups |
| esx.clear.net.dvport.connectivity.restored |
Restored Network Connectivity to DVPorts |
| esx.clear.net.dvport.redundancy.restored |
Restored Network Redundancy to DVPorts |
| esx.clear.net.lacp.lag.transition.up |
lag transition up |
| esx.clear.net.lacp.uplink.transition.up |
uplink transition up |
| esx.clear.net.lacp.uplink.unblocked |
uplink is unblocked |
| esx.clear.net.redundancy.restored |
Restored uplink redundancy to portgroups |
| esx.clear.net.vmnic.linkstate.up |
Link state up |
| esx.clear.scsi.device.io.latency.improved |
Scsi Device I/O Latency has improved |
| esx.clear.scsi.device.state.on |
Device has been turned on administratively. |
| esx.clear.scsi.device.state.permanentloss.deviceonline |
Device that was permanently inaccessible is now online. |
| esx.clear.storage.apd.exit |
Exited the All Paths Down state |
| esx.clear.storage.connectivity.restored |
Restored connectivity to storage device |
| esx.clear.storage.redundancy.restored |
Restored path redundancy to storage device |
| esx.problem.3rdParty.error |
A 3rd party component on ESXi has reported an error. |
| esx.problem.3rdParty.information |
A 3rd party component on ESXi has reported an informational event. |
| esx.problem.3rdParty.warning |
A 3rd party component on ESXi has reported a warning. |
| esx.problem.apei.bert.memory.error.corrected |
A corrected memory error occurred |
| esx.problem.apei.bert.memory.error.fatal |
A fatal memory error occurred |
| esx.problem.apei.bert.memory.error.recoverable |
A recoverable memory error occurred |
| esx.problem.apei.bert.pcie.error.corrected |
A corrected PCIe error occurred |
| esx.problem.apei.bert.pcie.error.fatal |
A fatal PCIe error occurred |
| esx.problem.apei.bert.pcie.error.recoverable |
A recoverable PCIe error occurred |
| esx.problem.application.core.dumped |
An application running on ESXi host has crashed and a core file was created. |
| esx.problem.boot.filesystem.down |
Lost connectivity to the device backing the boot filesystem |
| esx.problem.coredump.capacity.insufficient |
The storage capacity of the coredump targets is insufficient to capture a complete coredump. |
| esx.problem.coredump.unconfigured |
No vmkcore disk partition is available and no network coredump server has been configured. Host core dumps cannot be saved. |
| esx.problem.coredump.unconfigured2 |
No coredump target has been configured. Host core dumps cannot be saved. |
| esx.problem.cpu.amd.mce.dram.disabled |
DRAM ECC not enabled. Please enable it in BIOS. |
| esx.problem.cpu.intel.ioapic.listing.error |
Not all IO-APICs are listed in the DMAR. Not enabling interrupt remapping on this platform. |
| esx.problem.cpu.mce.invalid |
MCE monitoring will be disabled as an unsupported CPU was detected. Please consult the ESX HCL for information on supported hardware. |
| esx.problem.cpu.smp.ht.invalid |
Disabling HyperThreading due to invalid configuration: Number of threads: {1} Number of PCPUs: {2}. |
| esx.problem.cpu.smp.ht.numpcpus.max |
Found {1} PCPUs but only using {2} of them due to specified limit. |
| esx.problem.cpu.smp.ht.partner.missing |
Disabling HyperThreading due to invalid configuration: HT partner {1} is missing from PCPU {2}. |
| esx.problem.dhclient.lease.none |
Unable to obtain a DHCP lease. |
| esx.problem.dhclient.lease.offered.noexpiry |
No expiry time on offered DHCP lease. |
| esx.problem.esximage.install.error |
Could not install image profile. |
| esx.problem.esximage.install.invalidhardware |
Host doesn't meet image profile hardware requirements. |
| esx.problem.esximage.install.stage.error |
Could not stage image profile. |
| esx.problem.hardware.acpi.interrupt.routing.device.invalid |
Skipping interrupt routing entry with bad device number: {1}. This is a BIOS bug. |
| esx.problem.hardware.acpi.interrupt.routing.pin.invalid |
Skipping interrupt routing entry with bad device pin: {1}. This is a BIOS bug. |
| esx.problem.hardware.ioapic.missing |
IOAPIC Num {1} is missing. Please check BIOS settings to enable this IOAPIC. |
| esx.problem.host.coredump |
An unread host kernel core dump has been found. |
| esx.problem.hostd.core.dumped |
Hostd crashed and a core file was created. |
| esx.problem.iorm.badversion |
Storage I/O Control version mismatch |
| esx.problem.iorm.nonviworkload |
Unmanaged workload detected on SIOC-enabled datastore |
| esx.problem.migrate.vmotion.default.heap.create.failed |
Failed to create default migration heap |
| esx.problem.migrate.vmotion.server.pending.cnx.listen.socket.shutdown |
Error with migration listen socket |
| esx.problem.net.connectivity.lost |
Lost Network Connectivity |
| esx.problem.net.dvport.connectivity.lost |
Lost Network Connectivity to DVPorts |
| esx.problem.net.dvport.redundancy.degraded |
Network Redundancy Degraded on DVPorts |
| esx.problem.net.dvport.redundancy.lost |
Lost Network Redundancy on DVPorts |
| esx.problem.net.e1000.tso6.notsupported |
No IPv6 TSO support |
| esx.problem.net.fence.port.badfenceid |
Invalid fenceId configuration on dvPort |
| esx.problem.net.fence.resource.limited |
Maximum number of fence networks or ports |
| esx.problem.net.fence.switch.unavailable |
Switch fence property is not set |
| esx.problem.net.firewall.config.failed |
Firewall configuration operation failed. The changes were not applied. |
| esx.problem.net.firewall.port.hookfailed |
Adding port to Firewall failed. |
| esx.problem.net.gateway.set.failed |
Failed to set gateway |
| esx.problem.net.heap.belowthreshold |
Network memory pool threshold |
| esx.problem.net.lacp.lag.transition.down |
lag transition down |
| esx.problem.net.lacp.peer.noresponse |
No peer response |
| esx.problem.net.lacp.policy.incompatible |
Current teaming policy is incompatible |
| esx.problem.net.lacp.policy.linkstatus |
Current teaming policy is incompatible |
| esx.problem.net.lacp.uplink.blocked |
uplink is blocked |
| esx.problem.net.lacp.uplink.disconnected |
uplink is disconnected |
| esx.problem.net.lacp.uplink.fail.duplex |
uplink duplex mode is different |
| esx.problem.net.lacp.uplink.fail.speed |
uplink speed is different |
| esx.problem.net.lacp.uplink.inactive |
All uplinks must be active |
| esx.problem.net.lacp.uplink.transition.down |
uplink transition down |
| esx.problem.net.migrate.bindtovmk |
Invalid vmknic specified in /Migrate/Vmknic |
| esx.problem.net.migrate.unsupported.latency |
Unsupported vMotion network latency detected |
| esx.problem.net.portset.port.full |
Failed to apply for free ports |
| esx.problem.net.portset.port.vlan.invalidid |
Vlan ID of the port is invalid |
| esx.problem.net.proxyswitch.port.unavailable |
Virtual NIC connection to switch failed |
| esx.problem.net.redundancy.degraded |
Network Redundancy Degraded |
| esx.problem.net.redundancy.lost |
Lost Network Redundancy |
| esx.problem.net.uplink.mtu.failed |
Failed to set MTU on an uplink |
| esx.problem.net.vmknic.ip.duplicate |
A duplicate IP address was detected on a vmknic interface |
| esx.problem.net.vmnic.linkstate.down |
Link state down |
| esx.problem.net.vmnic.linkstate.flapping |
Link state unstable |
| esx.problem.net.vmnic.watchdog.reset |
Nic Watchdog Reset |
| esx.problem.ntpd.clock.correction.error |
NTP daemon stopped. Time correction out of bounds. |
| esx.problem.pageretire.platform.retire.request |
Memory page retirement requested by platform firmware. |
| esx.problem.pageretire.selectedmpnthreshold.host.exceeded |
Number of host physical memory pages selected for retirement exceeds threshold. |
| esx.problem.scratch.partition.size.small |
Size of scratch partition is too small. |
| esx.problem.scratch.partition.unconfigured |
No scratch partition has been configured. |
| esx.problem.scsi.apd.event.descriptor.alloc.failed |
No memory to allocate APD Event |
| esx.problem.scsi.device.close.failed |
Scsi Device close failed. |
| esx.problem.scsi.device.detach.failed |
Device detach failed |
| esx.problem.scsi.device.filter.attach.failed |
Failed to attach filter to device. |
| esx.problem.scsi.device.io.bad.plugin.type |
Plugin trying to issue command to device does not have a valid storage plugin type. |
| esx.problem.scsi.device.io.inquiry.failed |
Failed to obtain INQUIRY data from the device |
| esx.problem.scsi.device.io.invalid.disk.qfull.value |
Scsi device queue parameters incorrectly set. |
| esx.problem.scsi.device.io.latency.high |
Scsi Device I/O Latency going high |
| esx.problem.scsi.device.io.qerr.change.config |
QErr cannot be changed on device. Please change it manually on the device if possible. |
| esx.problem.scsi.device.io.qerr.changed |
Scsi Device QErr setting changed |
| esx.problem.scsi.device.is.local.failed |
Plugin's isLocal entry point failed |
| esx.problem.scsi.device.is.pseudo.failed |
Plugin's isPseudo entry point failed |
| esx.problem.scsi.device.is.ssd.failed |
Plugin's isSSD entry point failed |
| esx.problem.scsi.device.limitreached |
Maximum number of storage devices |
| esx.problem.scsi.device.state.off |
Device has been turned off administratively. |
| esx.problem.scsi.device.state.permanentloss |
Device has been removed or is permanently inaccessible. |
| esx.problem.scsi.device.state.permanentloss.noopens |
Permanently inaccessible device has no more opens. |
| esx.problem.scsi.device.state.permanentloss.pluggedback |
Device has been plugged back in after being marked permanently inaccessible. |
| esx.problem.scsi.device.state.permanentloss.withreservationheld |
Device has been removed or is permanently inaccessible. |
| esx.problem.scsi.device.thinprov.atquota |
Thin Provisioned Device Nearing Capacity |
| esx.problem.scsi.scsipath.badpath.unreachpe |
vVol PE path going out of vVol-incapable adapter |
| esx.problem.scsi.scsipath.badpath.unsafepe |
Cannot safely determine vVol PE |
| esx.problem.scsi.scsipath.limitreached |
Maximum number of storage paths |
| esx.problem.scsi.unsupported.plugin.type |
Storage plugin of unsupported type tried to register. |
| esx.problem.storage.apd.start |
All paths are down |
| esx.problem.storage.apd.timeout |
All Paths Down timed out, I/Os will be fast failed |
| esx.problem.storage.connectivity.devicepor |
Frequent PowerOn Reset Unit Attention of Storage Path |
| esx.problem.storage.connectivity.lost |
Lost Storage Connectivity |
| esx.problem.storage.connectivity.pathpor |
Frequent PowerOn Reset Unit Attention of Storage Path |
| esx.problem.storage.connectivity.pathstatechanges |
Frequent State Changes of Storage Path |
| esx.problem.storage.iscsi.discovery.connect.error |
iSCSI discovery target login connection problem |
| esx.problem.storage.iscsi.discovery.login.error |
iSCSI Discovery target login error |
| esx.problem.storage.iscsi.isns.discovery.error |
iSCSI iSns Discovery error |
| esx.problem.storage.iscsi.target.connect.error |
iSCSI Target login connection problem |
| esx.problem.storage.iscsi.target.login.error |
iSCSI Target login error |
| esx.problem.storage.iscsi.target.permanently.lost |
iSCSI target permanently removed |
| esx.problem.storage.redundancy.degraded |
Degraded Storage Path Redundancy |
| esx.problem.storage.redundancy.lost |
Lost Storage Path Redundancy |
| esx.problem.syslog.config |
System logging is not configured. |
| esx.problem.syslog.nonpersistent |
System logs are stored on non-persistent storage. |
| esx.problem.vfat.filesystem.full.other |
A VFAT filesystem is full. |
| esx.problem.vfat.filesystem.full.scratch |
A VFAT filesystem, being used as the host's scratch partition, is full. |
| esx.problem.visorfs.failure |
An operation on the root filesystem has failed. |
| esx.problem.visorfs.inodetable.full |
The root filesystem's file table is full. |
| esx.problem.visorfs.ramdisk.full |
A ramdisk is full. |
| esx.problem.visorfs.ramdisk.inodetable.full |
A ramdisk's file table is full. |
| esx.problem.vm.kill.unexpected.fault.failure |
A VM could not fault in the a page. The VM is terminated as further progress is impossible. |
| esx.problem.vm.kill.unexpected.forcefulPageRetire |
A VM did not respond to swap actions and is forcefully powered off to prevent system instability. |
| esx.problem.vm.kill.unexpected.noSwapResponse |
A VM did not respond to swap actions and is forcefully powered off to prevent system instability. |
| esx.problem.vm.kill.unexpected.vmtrack |
A VM is allocating too many pages while system is critically low in free memory. It is forcefully terminated to prevent system instability. |
| esx.problem.vmfs.ats.support.lost |
Device Backing VMFS has lost ATS Support |
| esx.problem.vmfs.error.volume.is.locked |
VMFS Locked By Remote Host |
| esx.problem.vmfs.extent.offline |
Device backing an extent of a file system is offline. |
| esx.problem.vmfs.extent.online |
Device backing an extent of a file system came online |
| esx.problem.vmfs.heartbeat.recovered |
VMFS Volume Connectivity Restored |
| esx.problem.vmfs.heartbeat.timedout |
VMFS Volume Connectivity Degraded |
| esx.problem.vmfs.heartbeat.unrecoverable |
VMFS Volume Connectivity Lost |
| esx.problem.vmfs.journal.createfailed |
No Space To Create VMFS Journal |
| esx.problem.vmfs.lock.corruptondisk |
VMFS Lock Corruption Detected |
| esx.problem.vmfs.lock.corruptondisk.v2 |
VMFS Lock Corruption Detected |
| esx.problem.vmfs.nfs.mount.connect.failed |
Unable to connect to NFS server |
| esx.problem.vmfs.nfs.mount.limit.exceeded |
NFS has reached the maximum number of supported volumes |
| esx.problem.vmfs.nfs.server.disconnect |
Lost connection to NFS server |
| esx.problem.vmfs.nfs.server.restored |
Restored connection to NFS server |
| esx.problem.vmfs.resource.corruptondisk |
VMFS Resource Corruption Detected |
| esx.problem.vmsyslogd.remote.failure |
Remote logging host has become unreachable. |
| esx.problem.vmsyslogd.storage.failure |
Logging to storage has failed. |
| esx.problem.vmsyslogd.storage.logdir.invalid |
The configured log directory cannot be used. The default directory will be used instead. |
| esx.problem.vmsyslogd.unexpected |
Log daemon has failed for an unexpected reason. |
| esx.problem.vpxa.core.dumped |
Vpxa crashed and a core file was created. |
| hbr.primary.AppQuiescedDeltaCompletedEvent |
Application consistent delta completed. |
| hbr.primary.ConnectionRestoredToHbrServerEvent |
Connection to VR Server restored. |
| hbr.primary.DeltaAbortedEvent |
Delta aborted. |
| hbr.primary.DeltaCompletedEvent |
Delta completed. |
| hbr.primary.DeltaStartedEvent |
Delta started. |
| hbr.primary.FSQuiescedDeltaCompletedEvent |
File system consistent delta completed. |
| hbr.primary.FSQuiescedSnapshot |
Application quiescing failed during replication. |
| hbr.primary.FailedToStartDeltaEvent |
Failed to start delta. |
| hbr.primary.FailedToStartSyncEvent |
Failed to start full sync. |
| hbr.primary.HostLicenseFailedEvent |
vSphere Replication is not licensed replication is disabled. |
| hbr.primary.InvalidDiskReplicationConfigurationEvent |
Disk replication configuration is invalid. |
| hbr.primary.InvalidVmReplicationConfigurationEvent |
Virtual machine replication configuration is invalid. |
| hbr.primary.NoConnectionToHbrServerEvent |
No connection to VR Server. |
| hbr.primary.NoProgressWithHbrServerEvent |
VR Server error: {reason.@enum.hbr.primary.ReasonForNoServerProgress} |
| hbr.primary.QuiesceNotSupported |
Quiescing is not supported for this virtual machine. |
| hbr.primary.SyncCompletedEvent |
Full sync completed. |
| hbr.primary.SyncStartedEvent |
Full sync started. |
| hbr.primary.SystemPausedReplication |
System has paused replication. |
| hbr.primary.UnquiescedDeltaCompletedEvent |
Delta completed. |
| hbr.primary.UnquiescedSnapshot |
Unable to quiesce the guest. |
| hbr.primary.VmLicenseFailedEvent |
vSphere Replication is not licensed replication is disabled. |
| hbr.primary.VmReplicationConfigurationChangedEvent |
Replication configuration changed. |
| vim.event.LicenseDowngradedEvent |
License downgrade |
| vim.event.SystemSwapInaccessible |
System swap inaccessible |
| vim.event.UnsupportedHardwareVersionEvent |
This virtual machine uses hardware version {version} which is no longer supported. Upgrade is recommended. |
| vprob.net.connectivity.lost |
Lost Network Connectivity |
| vprob.net.e1000.tso6.notsupported |
No IPv6 TSO support |
| vprob.net.migrate.bindtovmk |
Invalid vmknic specified in /Migrate/Vmknic |
| vprob.net.proxyswitch.port.unavailable |
Virtual NIC connection to switch failed |
| vprob.net.redundancy.degraded |
Network Redundancy Degraded |
| vprob.net.redundancy.lost |
Lost Network Redundancy |
| vprob.scsi.device.thinprov.atquota |
Thin Provisioned Device Nearing Capacity |
| vprob.storage.connectivity.lost |
Lost Storage Connectivity |
| vprob.storage.redundancy.degraded |
Degraded Storage Path Redundancy |
| vprob.storage.redundancy.lost |
Lost Storage Path Redundancy |
| vprob.vmfs.error.volume.is.locked |
VMFS Locked By Remote Host |
| vprob.vmfs.extent.offline |
Device backing an extent of a file system is offline. |
| vprob.vmfs.extent.online |
Device backing an extent of a file system is online. |
| vprob.vmfs.heartbeat.recovered |
VMFS Volume Connectivity Restored |
| vprob.vmfs.heartbeat.timedout |
VMFS Volume Connectivity Degraded |
| vprob.vmfs.heartbeat.unrecoverable |
VMFS Volume Connectivity Lost |
| vprob.vmfs.journal.createfailed |
No Space To Create VMFS Journal |
| vprob.vmfs.lock.corruptondisk |
VMFS Lock Corruption Detected |
| vprob.vmfs.nfs.server.disconnect |
Lost connection to NFS server |
| vprob.vmfs.nfs.server.restored |
Restored connection to NFS server |
| vprob.vmfs.resource.corruptondisk |
VMFS Resource Corruption Detected |
Ну а вот так вот будет выглядеть сработавший кастомный аларм в интерфейсе VMware vSphere Web Client:

Таги: VMware, vSphere, Troubleshooting, ESXi
Вышли новые версии VMware vSphere Client 3.7 - 3.9.
В последнее время VMware отчаянно борется за то, чтобы сделать обновленную версию VMware vSphere Client (он же бывший HTML5 Client) полнофункциональной и поскорее заменить ею устаревший Web Client. Мы писали о том, что недавно было выпущено обновление VMware vSphere 6.5b, в состав которого вошел vSphere Client 3.7-3.8.

Но последний раз мы писали о возможностях vSphere Client 3.6 вот тут, поэтому давайте взглянем на функциональность VMware vSphere Client последних версий 3.7 - 3.9:
- Улучшенные графики производительности: можно выбирать объекты и счетчики.
- Возможность включить/выключить LED-индикаторы для Host Storage Devices
- Возможность пометить диск как Remote/Local в представлении Host Storage Device.
- Мониторинг компонентов Storage Providers для хранилищ VVol.
- Миграция виртуальных машин из одной виртуальной сети (VM Network) в другую.
- Возможность изменять настройки NetFlow на коммутаторе Distributed Switch.
- Компонент Content Library (пока представление read only для библиотек, шаблонов и других типов контента),
- Возможность удалить Content Library.
- Создание библиотеки Subscribed Library на странице Content Library.
- Действие "Erase device partition" в представлении Host Storage Devices.
- Возможность пометить диски Flash/HDD в представлении Host Storage Devices.
- Создание новых хранилищ NFS 4.1 с аутентификацией Kerberos.
- Поддержка Protocol endpoints для хостов ESXi и хранилищ.
- Возможность изменения конфигурации стека TCP/IP.
- Представление VM Customization Specifications в разделе "Policies and Profiles".
- Был произведен перевод приложения vSphere Client (HTML5) с фреймворка Angular Javascript (Angular 4) на последнюю версию Clarity. По идее, это должно пройти незаметно для пользователей, но возможны небольшие изменения во внешнем виде.
- Возможность создания хранилища VVol в мастере "New datastore".
- Возможность размонтировать тома VVol с хостов ESXi.
- Перемещение файлов и папок между датасторами в Datastore Browser.
Скачать VMware vSphere Client 3.9 можно по этой ссылке. Таблица отличий vSphere Client и Web Client приведена тут (смотрите на номер билда - данные там не самые актуальные).
Таги: VMware, Client, Update, vSphere, Labs
Вышел VMware vCenter Server 6.5b - новый vSphere Client.
Компания VMware выпустила обновление сервера управления виртуальной инфраструктурой - VMware vCenter Server 6.5b. Новых возможностей там три:
- Последние обновления по временным зонам (time zones) при кастомизации гостевых операционных систем Linux и Windows.
- Обновленный пакет Oracle (Sun) JRE package версии 1.8.0_12 с поддержкой турецкой временной зоны.
- Значительно обновленный VMware vSphere Client (бывший HTML5 Client).
Последний пункт как раз и заслуживает внимания. В состав vCenter Server 6.5b вошел vSphere Client версии 6.5 (Build 5178943). Судя по версии билда - это нечто среднее между vSphere Client 3.7 (Build 5168275) и vSphere Client 3.8 (Build 5204615), которые доступны на сайте проекта VMware Labs. То есть, это практически самый свежий клиент.
Тем не менее, у vSphere Client 6.5 на сегодняшний день отсутствует следующая функциональность (подробнее тут):
| Функциональная область |
Рабочий процесс / возможность |
Не поддерживается в vSphere Client |
| Cluster |
Configuration |
- DRS/HA virtual machine overrides
- Proactive HA
|
| Cluster |
Datastore |
- Configure SDRS rules and VM overrides
|
| Cluster |
Monitor |
- Overview performance charts
|
Content Library |
Deploy from template |
- Advanced deploy options
- Advanced networking template customization
|
Datastore |
Management |
- Datastore default policy read-only view
- Create NFS 4.1 with Kerberos authentication
- Create VVOL datastore wizard
- VVOL datastore default profiles
- VVOL capability profiles capacity summary portlet
- Mount and unmount existing VVOL datastore to hosts
- Register virtual machine
- Copy, move, rename, and inflate datastore files
- Change datastore default policy
- Datastore protocol endpoints
- Datastore selector advanced mode
- Datastore capability sets
|
| Distributed Switch |
Management |
- Add and manage hosts
- Create new distributed switch
- Remove distributed switch
- Manage port groups for batch operations
- Edit distributed port settings
- Advanced features: NIOC, NetFlow, port mirror, traffic filtering, LACP, private VLAN
- Import and export distributed switch and distributed port group
- Manage physical network adapters for distributed switch
|
Fault Tolerance |
Displays and Operations |
- Fault tolerance operations
- Fault tolerance summary portlet
- Migrate secondary workflow
|
| Host Management |
Host Configuration |
- ESXi two-factor authentication
- Configure host profiles
|
| Host Management |
Network Configuration |
- Health checks
- Edit TCP/IP stacks
- Migrate VMs to another network
|
Host Management |
Settings |
- Host VVOL protocol endpoints
|
Host Management |
Storage Devices |
- Erase partition
- Turn locator LED on and off
- Mark and unmark flash disk
|
Host Management |
Storage Policy |
- Global view
- Summary view
- Monitor view
- Manage view
- Related items view
- VM storage policy assignments read-only view
- Create and edit storage policy wizard
- Integrate storage policies in deploy OVF wizard
- Storage policy delete, check compliance, and reapply
- Reset VSAN default policy
- Delete storage policy component
|
Host Storage |
iSCSI |
- Hardware iSCSI to IPv6 support
- Edit advanced options
|
Host Storage |
Management |
- Edit host cache configuration
- Protocol endpoint properties, paths, and datastores
- I/O filters
|
Host Storage |
Virtual Flash |
- Resource management
- Host swap cache configuration
- Add virtual flash resource capacity
|
| Performance Charts |
Advanced |
- Select full range of metrics in advanced performance charts
|
| Performance Charts |
Overview |
- View overview performance charts
- Select full range of metrics in advanced performance charts
|
| Platform |
508 Compliance |
|
Platform |
Actions |
|
Platform |
Advanced search |
- Search for VMs by compliance status
|
| Platform |
Docking |
- Drag and drop, close, and restore panes
|
Platform |
Inventory Tree |
- Drag and drop
- Inline rename
- Aggregated nodes
|
Platform |
Live Refresh |
- Object navigator live refresh
- Related lists live refresh
|
| Platform |
Object Selector |
|
Platform |
Portlets |
|
| Platform |
Recent Objects View |
|
| Platform |
Related Items Lists |
- Action button bar
- Filter list
- Quick filter lists
|
Platform |
Selection Widget |
|
| Platform |
Wizards |
- TIWO (Things I am Working On) wizard
- Sticked workflows (wizard over wizard)
|
vApp |
|
- All edit and display settings
- All workflows
|
VCHA |
Management and Deployment |
|
VM Administration |
Compliance |
- Check VM compliance
- SPBM compliance column in VM list
|
VM Administration |
Deployment |
- Deploy VM from content library wizard
|
VM Administration |
Global Permissions |
- Read only view of global permissions details
- Create permission
- Edit existing role of a permission
- Right click on object to add permission
|
VM Administration |
Profiles |
- Manage VM profiles (including RGs)
- Batch manage VM profiles
|
VM Administration |
Single Sign-on |
- SSO users and groups
- SSO configuration
|
VM Administration |
Storage Policies |
- Reapply storage policies for out-of-date VMs
- Storage policy components view
- Create and edit storage policy component dialog
- Delete storage policy component
|
VM Administration |
Summary |
- VM compliance summary portlet
|
VM Configuration |
VM Edit Settings |
- Device configuration options
- Adding the hardware devices: exist hard disk, RDM disk, floppy drive, serial port, parallel port, host USB device, USB controller, SCSi device, PCI device, SATA controller
- SDRS rules
- vApp options
- Boot options power management
- Edit advanced settings
- Remote console options
- Fibre channel NPIV
|
VM Configuration |
VM Summary |
- Advanced configuration portlet
- Virtual machine storage policies portlet
- vApp details portlet
- Update manager compliance portlet
- Video card details in hardware portlet
|
VM Crypt |
All |
|
VM Customization |
Image Customization |
|
VM Deployment |
Deploy OVF/OVA |
- Advanced storage
- Advanced networking
- Customize template
|
VM Lists |
VMs |
- VM list on vApp
- Sorting and filtering by column
|
VM Migration |
Drag & Drop |
- Tree to list
- To and from datastore and datastore cluster
- To and from standard network, opaque network, or distributed port group
|
VM Migration |
Migrate VM |
- Migration of compute and storage
- Migration to another VMware vCenter cluster
- Migration of multiple virtual machines at once
|
VM Migration |
Move To |
|
VM Operations |
Remote Console |
- Changing preferred console from the gear icon
|
VM Provisioning |
New VM |
- Missing devices for hardware customization
|
VM Provisioning |
Register VM |
- UI validations
- Customize text on page when registering VM template
|
VM Snapshot |
Snapshot Operations |
|
Скачать VMware vCenter Server 6.5b можно по этой ссылке, а Release Notes доступны тут.
Кроме того были выпущены обновления следующих продуктов:
- VMware Fusion 8.5.5
- Скачать Fusion 8.5.5 здесь
- Fusion 8.5.5 release notes здесь
- VMware Workstation 12.5.4 для Linux и Windows
- Скачать Workstation 12.5.4 здесь
- Workstation 12.5.4 release notes здесь
Таги: VMware, vCenter, Update, vSphere, Client
Как сделать VMFS UNMAP через PowerCLI в VMware vSphere.
Как некоторые знают, в VMware vSphere 6.5 появилась (а точнее вернулась снова) возможность Automatic VMFS UNMAP - возврат дискового пространства виртуальной машины (ее VMDK) на сторону дискового массива средствами VAAI (vStorage API for Array Integration). Если раньше эта возможность требовала выполнения различных команд, то теперь управление этой штукой доступно из GUI, а возврат дисковых блоков происходит автоматически. Работает UNMAP только для "тонких" (Thin Provisioned) LUN, на которых размещаются тома VMFS.
Из GUI vSphere Web Client можно управлять только UNMAP'ом для томов VMFS 6, для пятой версии файловой системы это нужно делать вручную с помощью ESXCLI. Кроме того, механизм UNMAP работает в асинхронном режиме, а иногда хочется почистить хранилища от неиспользуемых блоков прямо сейчас.

Поэтому весьма кстати, что на сайте EnterpriseDaddy обнаружился полезный PowerCLI-скрипт, который возвращает дисковое пространство в LUN для заданного хранилища хоста ESXi.
Эта функция принимает на вход имя хоста ESXi и Datastore, а также отключает таймаут на исполнение операций, так как возврат дискового пространства LUN может занять часы.
Function Perform-VMFSUnmap {
[CmdletBinding()]
param(
[Parameter(
Mandatory=$true)]
[String[]]$Datastore,
[String]$ESXiHost
)
Set-PowerCLIConfiguration -WebOperationTimeoutSeconds -1 -Scope Session -Confirm:$false
$ESXHost = Get-VMHost $ESXiHost
$DatastoreName = Get-Datastore $Datastore
Write-Host 'Using ESXCLI and connecting to $VMHost' -ForegroundColor Green
$esxcli = Get-EsxCli -VMHost $ESXHost
Write-Host 'Unmapping $Datastore on $VMHost' -ForegroundColor Green
$esxcli.storage.vmfs.unmap($null,$DatastoreName,$null)
}
Ну а вот так надо запускать этот сценарий:
Perform-VMFSUnmap -ESXiHost ESXi65-A.lab.local -Datastore ISOs Таги: VMFS, Storage, VMware, vSphere, ESXi, PowerCLI
Последние обновления VMware vSphere Client 3.4-3.6.
Как вы все уже знаете, тонкий клиент на базе технологии HTML5 идет на смену vSphere Web Client, написанному на базе технологии Adobe Air. Теперь этот клиент претендует на то, чтобы стать основным средством управления виртуальной инфраструктурой, но до сих пор не включает в себя некоторую функциональность. Однако разработка его идет ударными темпами - в середине февраля мы писали про vSphere Client 3.3, а за это время успели выйти обновления - версии 3.4, 3.5 и 3.6.

Давайте посмотрим, что нового появилось в VMware vSphere Client 3.4-3.6:
- Диски RDM теперь могут быть добавлены к виртуальным машинам. Многие этого долго ждали.
- Датасторы можно теперь перемещать между папками и кластерами хранилищ.
- Появилось представление, в котором отображается соединение датасторов в рамках кластера (Datastore cluster connectivity to clusters view).
- Возможность копирования файлов и папок в datastore file browser.
- Просмотр таблиц маршрутизации для IPv4 и IPv6.
- Представление VM Storage Policies на вкладке Configure для виртуальных машин.
- Просмотр настроек NetFlow для распределенного виртуального коммутатора (Distributed Switch).
- Технология OSGi Sandboxing для плагинов – теперь архитектура плагинов увеличивает их изоляцию, что уменьшает вероятность сбоя всего клиента.
- Новая темная тема для клиента. Чтобы переключиться на нее, нужно перейти по ссылке https://<fqdn-or-ip-address-of-client/ui/?theme (это экспериментальная фича). Для того чтобы перейти на обычную тему, нужно убрать параметр ?theme из урла. Эта штука есть только в vSphere Client 3.4, в следующих версиях ее пока убрали (см. комментарий к этой заметке).
- Из файлового браузера можно скачать сразу несколько файлов в одном zip-архиве.
- Проверка соответствия политикам VM Storage Policy.
- Переназначение политики хранилищ виртуальной машине.
- Кастомизации Host Profiles для хоста можно сбросить в исходное состояние.
- Добавление и удаление правил Storage DRS.
- Шаблоны виртуальных машин можно перемещать в папки с ВМ.
Как видно из списка, нововведений достаточно много, поэтому имеет смысл обновить VMware vSphere Client до версии 3.6. Скачать клиент можно по этой ссылке.
Таги: VMware, vSphere, Client, Update
Вышел VMware vSphere Client 3.0 (vSphere HTML5 Web Client) - новые возможности.
Мы часто пишем о новом продукте vSphere HTML5 Web Client, представляющем собой новое поколение тонкого клиента для управления виртуальной инфраструктурой VMware vSphere. Он пришел на смену vSphere C# Client и теперь также называется vSphere Client. Напомним, что о его последних нововведениях мы писали вот тут.

Вчера вышла версия VMware vSphere Client 3.0, в которой появилось несколько новых возможностей, приведенных ниже:
- Функция развертывания виртуальной машины из OVF-шаблона (только для vCenter 6.5).
- Развертывание виртуальной машины из шаблона в content library. Кстати, изменился рабочий процесс - теперь нужно выбрать из контекстного меню хоста "New Virtual Machine…", а затем "Deploy from Template".
- Изменение настроек обычного виртуального коммутатора.
- Изменение настроек IPv4 для аппаратного iSCSI адаптера.
- Перемещение виртуальной машины драг энд дропом в папках в представлении "VMs and Templates".
- Возможность зарезервировать всю память для виртуальной машины в настройках.
- После создания роли можно изменять ее название.
Также приведем ниже возможности версии vSphere Client 2.20, которая также вышла совсем недавно:
- Новый мастер создания распределенной группы портов (Distributed Port Group).
- Поддержка создания датастора VMFS6 через мастер New Datastore.
- Поддержка добавления FCoE адаптера.
- Действие Rescan/Unregister Storage Provider.
- Действие Refresh Storage Provider's certificate.
- Создание новой глобальной роли.
Загрузить VMware vSphere Client 3.0 можно по этой ссылке. Таги: VMware, vSphere, Client, Update
Как мигрировать VMware VM Templates на другой Datastore с помощью PowerCLI.
К сожалению, нету «прямого» пути для миграции шаблонов (VM Templates) с одного датастора на другой (т.н. процедура Storage VMotion). Представляю вашему вниманию функцию Move-Template2Datastore из моего PowerCLI Vi-Module модуля. Функция принимает объект(ы) Template и один объект датастора и производит 3 действия... Таги: VMware, PowerCLI, Storage, vSphere
VMware vSphere HTML5 Web Client - в релизе на VMware Labs и в составе vSphere 6.5.
Недавно мы писали о новых возможностях VMware vSphere 6.5, где упомянули, что VMware vSphere HTML5 Web Client, о котором мы много писали, еще не совсем функционален, а потому не может быть рекомендован к использованию в производственной среде.
Между тем, на сайте VMware Labs, где выкладываются регулярные обновления клиента, появился апдейт с важной информацией о том, что теперь VMware vSphere HTML5 Web Client полностью вышел в релиз, а сам клиент называется теперь vSphere Client (и поставляется в составе vSphere 6.5 и выше).

Текущая версия vSphere Client - это 2.16, а мы писали про 2.8, поэтому приведем здесь вкратце новые возможности последних версий (2.9, 2.10, 2.11, 2.12, 2.13, 2.14, 2.15 и 2.16), которые вместе уже и составляют полноценный спектр возможностей нового веб-клиента vSphere.
- Настройка параметров CHAP для iSCSI-адаптеров
- Детали сети для привязки портов Software iSCSI и полное редактирование настроек
- Включение/выключение логгирования для ВМ в настройках
- Изменение свойств и политик стандартных порт-групп коммутаторов
- Хосты могут быть передвинуты в инвентори драг энд дропом
- Удаление нескольких ВМ с диска
- Удаление шаблонов ВМ с диска
- Действие
Upload Folder в File Browser (доступно только для Chrome, Edge и Firefox 50 и выше)
- Возможность задать тип сети в настройках ВМ
- Портлеты на странице Summary можно перемещать драг энд дропом
- Действие Upgrade to VMFS5
- Диаграмма Partition Layout в разделе создания датастора и при увеличении датастора
- Монтирование/размонтирования хранилищ NFS
- Просмотр, редактирование свойств и политик Distributed Port Groups
- Добавление/удаление физических адаптеров и порт групп для Standard или Distributed Switch
- Редактирование и просмотр свойств и политик стандартного коммутатора
- Графики производительности можно открыть в новом окне
- Можно создавать и удалять кластеры хранилищ
- Возможность включить проброс (passthrough) для устройств ESXi PCI
- Можно смотреть использование GPU серверов ESXi
- Настройки Storage I/O Control
- Возможность привязки/отвязки устройств на странице Host Storage Devices
- Конвертирование и клонирование ВМ в шаблон
- Создание датасторов NFS3 / NFS4.1 (в том числе, в режиме Read-only)
- Управление политиками доступа по нескольким путям (Multipathing)
- Монтирование/размонтирование томов VMFS
- Горячие клавиши для операций с питанием ВМ
- Rescan storage (новых томов VMFS и устройств)
- Детали разделов в Host > Configure > Storage Devices
- Детали устройств в Datastore > Configure > Device Backing
- Управление Lockdown mode для ESXi
- Хосты ESXi можно присоединить к домену
- Полное управление тэгами
Скачать vSphere Client можно по этой ссылке. Также он доступен в составе дистрибутива vSphere 6.5.
Таги: VMware, vSphere, Client, Update, Labs
Перенос виртуальных машин между отдельными VMware vCenter.
На сайте проекта VMware Labs появилась утилита Cross vCenter VM Mobility, которая может оказаться полезной администраторам, у которых в ведении находится несколько виртуальных датацентров, каждый из которых управляется своим сервером VMware vCenter.
Cross vCenter VM Mobility позволяет через интерфейс командной строки (CLI) перенести машину между серверами vCenter, которые связаны в режиме Linked Mode или размещены независимо друг от друга. Надо отметить, что в режиме Linked Mode и так можно перемещать виртуальную машину между датацентрами, поэтому полезна утилита именно для несоединенных vCenter.
Утилита позволяет производить как перенос нужной ВМ, так и клонирование в другое окружение vCenter. Построена она на базе vSphere Java SDK API.

Запустить ее можно следующим образом (вам потребуется jdk 1.7):
- Linux: /home/user1/xvc-mobility-cli>sh xvc-mobility.sh
- Windows: C:\xvc-mobility-cli>xvc-mobility.bat
Примеры исполнения миграции (пароль запросят в процессе выполнения):
xvc-mobility -svc <source-vc-ip> -su <source-vc-username> -dvc
<destination-vc-ip> -du <destination-vc-username> -vms <vm-names> -dh
<destination-host> -dds <destination-datastore> -op relocate
Авторы утилиты не рекомендуют использовать ее для миграции связанных клонов. Загрузить Cross vCenter VM Mobility и получить дополнительную информацию можно по этой ссылке. Таги: VMware, vCenter, Enterprise, Labs, VMachines
VMware vSphere HTML5 Web Client - что нового за последний месяц?
Почти месяц назад мы писали об обновлении тонкого клиента VMware vSphere HTML5 Web Client 2.8, построенного на базе легковесной технологии HTML5. За это время компания VMware уже успела анонсировать новую версию платформы виртуализации VMware vSphere 6.5, которая выйдет до конца этого года, но в которой еще не будет полноценного HTML5 Client. Увы.

Однако VMware продолжает серьезными темпами наращивать функционал HTML5 Web Client - за месяц были выпущены обновления 2.9, 2.10, 2.11 и 2.12. Посмотрим что в них появилось нового:
- Конвертация и клонирование ВМ в шаблон (template) и обратно
- Создание датасторов NFS3 / NFS4.1, в том числе в режиме read-only
- Изменение политик Multipathing в разделе Host Storage Devices, а также просмотр деталей устройств и разделов
- Возможность перетащить ВМ через Drag and drop на хост, который имеет доступ к тому же хранилищу и сети
- Запуск мастера New Virtual Machine wizard из объекта vApp, хранилища или кластера хранилищ
- Показ активных фильтров в колонках гридов
- Возврат к предыдущим шагам мастера вызывает повторную валидацию следующих
- Подробная информация в разделе VMFS Datastore > Configure > Device Backing, включая тип устройства
- PCI-устройства теперь доступны для passthrough и выводятся их детали
- Mount/Unmount хранилищ VMFS
- Комбинации клавиш для операций с питанием ВМ
- Изменение настроек ВМ содержит опцию Tools Upgrade для операции включения
- Возможность удалить datacenter из inventory
- Функция Rescan storage (рескан томов VMFS и новых Storage Devices, включая iSCSI)
- Добавление и удаление таргетов Dynamic/Static Discovery Targets из настроек iSCSI-адаптера
- Удаление виртуального коммутатора
- Изменение настроек Lockdown mode
- Присоединение хостов ESXi к домену
- Редактирование general options в настройках ВМ
- Создание тэгов и новых глобальных категорий для тэгов, а также поиск по ним
- Валидация некорректного ввода Dynamic/Static discovery targets
- Добавление портгрупп к виртуальным коммутаторам
- Операции с VMware Tools для нескольких ВМ одновременно (install/upgrade, unmount)
- Улучшения производительности и исправление ошибок
Как мы видим, сделано, бесспорно, было много. Но и такого темпа, видимо, мало, чтобы сделать HTML5 Web Client полноценным до конца года, одновременно с доступностью vSphere 6.5. Скачать HTML5 Web Client 2.12 можно по этой ссылке.
Таги: VMware, vSphere, HTML Client, Update, Labs
Шифрование виртуальных машин в VMware vSphere 6.5 - как это работает?
Не так давно мы писали о новых возможностях платформы виртуализации VMware vSphere 6.5, где впервые появилась так давно запрашиваемая администраторами функция шифрования, как содержимого виртуальных дисков, так и шифрования горячих миграций vMotion.

Устроено это шифрование ВМ на базе алгоритма AES-NI, а управление ключами происходит по стандарту KMIP 1.1. Когда операция ввода-вывода приходит на диск виртуальной машины - она сразу же шифруется "на лету", что обеспечивает полную безопасность при попытке несанкционированного доступа к данным.
Шифруются не только виртуальные диски, но и конфигурационные файлы VMX, файлы снапшотов и все прочие файловые объекты, относящиеся к виртуальной машине.
Шифрование объектов ВМ идет за ее пределами, таким образом гостевая ОС не имеет доступа к ключам шифрования. Шифрованные виртуальные машины всегда перемещаются между хостами ESXi средствами также шифрованного vMotion.

Чтобы начать шифровать виртуальную машину, нужно назначить ей соответствующую политику хранения (Storage Policy):

Как работает VM Encryption в VMware vSphere 6.5:
- Пользователь назначает политику VM Encryption на уровне виртуальной машины.
- Для машины генерируется случайный ключ и шифруется ключом из key manager (KMS Key).
- При включении ВМ сервер vCenter получает ключ из Key Manager, посылает его в VM encryption Module на сервере ESXi, что разлочивает ключ в гипервизоре.
- Далее все операции ввода-вывода идут через encryption module, шифруя все входящие и исходящие SCSI-команды прозрачно для гостевой ОС.
Все это совместимо со сторонними системами управления ключами (и требует одну из них), которые построены на стандарте KMIP версии 1.1 или выше:


Для того, чтобы расшифровать виртуальную машину и хранить далее ее в обычном формате, нужно просто поставить дефолтную политику хранения (Datastore default).
Также будет специальный командлет PowerCLI, который может шифровать/расшифровывать ВМ, а также определять, какие из них в данный момент зашифрованы.
vCenter в системе шифрования работает только как клиент. Для управления ключами используется Key Management Server (KMS).

В механизме управления привилегиями теперь появилась роль No Cryptography Administrator. Если ее назначить, то стандартному администратору будут запрещены следующие привилегии:
- Manage key servers
- Manage keys
- Manage encryption policies
- Console access to encrypted VMs
- Upload/download encrypted VMs

В качестве KMS можно использовать любые внешние системы, работающие по стандарту KMIP:

При использовании шифрования ВМ нужно учитывать следующие моменты:
- Да, вам понадобится система управления ключами (внешний Key Management Server)
- Не поддерживаются возможности SAN Backup.
- Если для обычного метода бэкапа сделать резервную копию - она будет нешифрованной, если восстановить - то все будет в соответствии с политикой целевого хранилища (то есть, ВМ может оказаться незашифрованной после восстановления).
- Сам сервер vCenter не может быть зашифрован - иначе его просто было бы нельзя включить.
- Также не поддерживаются следующие возможности:
- Suspend/resume
- Шифрование ВМ со снапшотами и создание снапшотов для шифрованных ВМ
- Serial/Parallel port
- Content library
- vSphere Replication
Для vMotion шифрование включается на уровне отдельной ВМ, а для передачи данных в момент синхронизации используются 256-битные ключи шифрования.

Есть 3 политики для шифрованного vMotion:
- Disabled - отключено.
- Opportunistic - шифрование только в случае, если это поддерживает источник и целевой хост ESXi, в противном случае vMotion будет нешифрованным.
- Required - обязательно будет использоваться.
Перенос машин между хостами осуществляется путем обмена одноразовыми ключами, которые генерируются и обслуживаются сервером vCenter (не KMS).
В целом, шифрование виртуальных машин и миграций vMotion - штука классная, но помните, что вам потребуется для организации этого процесса внешний KMS-сервер.
Таги: VMware, VMachines, Security, vMotion, Update
Изменения VMware Storage IO Control и его интеграция в Storage Policy Based Management (SPBM) в обновленной версии VMware vSphere 6.5.
Как мы недавно писали, в новой версии платформы виртуализации VMware vSphere 6.5 появившийся очень давно механизм VMware Storage IO Control (SIOC) теперь работает посредством политик хранилищ (Storage Policies) на базе интерфейса vSphere APIs for IO Filtering (VAIO). О том, как раньше работал SIOC на практическом примере мы уже писали вот тут. А тут мы упоминали о Storage Policy Based Management (SPBM).
Давайте теперь посмотрим, как все это взаимодействует вместе. Во-первых, надо сказать, что Storage IO Control начинает работать, когда на хосте ощущается недостаток ресурсов хранилища (пропускной способности) и виртуальные машины начинают конкурировать между собой. По умолчанию этот механизм выключен, поэтому машины разбираются между собой на общих основаниях.
Давайте включим SIOC для отдельного хранилища. Для этого в vSphere Client нажмем на него правой кнопкой и выберем "Configure SIOC":

Тут мы видим, что есть некоторый Congestion Threshold - это зачение в процентах загруженности хранилища (по пропускной способности) или по Latency (задается вручную), при превышении которого будет включен механизм борьбы за ресурсы SIOC. Также важна галка "Exclude I/O statistics from SDRS" - это Network-Aware DRS, то есть теперь механизм балансировки нагрузки по хранилищам SDRS по умолчанию не перемещает машины на загруженные в плане сети хосты (это можно отключить при желании).
Далее посмотрим на политики хранилищ. Для этого пойдем в раздел VM Storage Policy и далее в Storage Policy Components, где посмотрим параметры дефолтной политики "Normal":

Вот тут-то мы и видим параметры VMware SIOC, которые можно регулировать для данной политики, которая впоследствии будет применена к виртуальной машине или ее отдельным виртуальным дискам. Все то же самое - резервация и лимиты по IOPS, а также shares - то есть доли, которые будут иметь от общего объема shares объекты данной политики.
При создании новой политики хранения можно задать предопределенный набор Reservation, Limit и Shares в качестве компонента Datastore IO Control:

Также в политики хранения можно в качестве правил (rules) задавать определенные сервисы предоставляемые хостом (это понятие Line of Service) - например, шифрование дисков, кэширование, репликация и прочее. Все это доступно для редактирования при задании правил в рамках новой политики хранения (VM Storage Policy):

Ну а для назначения политики надо использовать пункт VM Policies в контекстном меню виртуальной машины, далее выбрать пункт Edit VM Storage Policies:

И далее назначаем стандартную или кастомную политику хранения для всех объектов виртуальной машины (Apply to all) или для отдельных виртуальных дисков (по умолчанию стоит политика, назначенная для всего датастора):

Таким образом, теперь SIOC и SPBM интегрированы в рамках единого рабочего процесса и удобны в использовании при управлении классами обслуживания в плане хранилищ для виртуальных машин и отдельных дисков VMDK. Таги: VMware, vSphere, SIOC, SPBM, Update, Storage, Performance
Еще один релиз VMware ESXi Embedded Host Client 1.10 - новые возможности.
На днях мы писали о новых возможностях тонкого клиента для управления виртуальной инфраструктурой vSphere через браузер - vSphere HTML5 Web Client версии 2.8. Эта штука позволяет управлять всеми хостами и виртуальными машинами через сервисы VMware vCenter. Но если вам нужно управлять отдельным хостом VMware ESXi (например, если у вас нет vCenter или он недоступен из-за сбоя), то вы можете использовать VMware ESXi Embedded Host Client, для которого недавно вышли версии 1.9 и 1.10.

Напомним, что про версию Embedded Client 1.8 мы писали вот тут.
А вот что нового появилось за последний месяц в версиях 1.9 и 1.10:
- Предупреждение о том, что к консоли подключено более одного пользователя.
- Возможность добавления быстрых фильтров к списку имен виртуальных машин, а также для расширенных настроек (Advanced settings).
- Поддержка превращения "тонких" (thin) дисков в обычные (thick). Это делается из контекстного меню по правому клику на файл виртуального диска в datastore browser.
- Поддержка хранилищ NFS 4.1 в datastore browser.
- В списке виртуальных машин показываются следующие поля: Tools version, Tools status и IP-адрес гостевой ОС.
- Возможность развертывания машин из виртуальных модулей OVA очень большого размера.
- Поддержка загрузки консоли VMRC на хост с Linux (скачивается с ESXi).
- Пункт "Send Ctrl-Alt-Del" в меню Actions в консоли.
- Множество исправлений ошибок.
Скачать VMware ESXi Embedded Host Client 1.10 можно по этой ссылке.
Таги: VMware, Host Client, Update, vSphere, ESXi, VMachines, Labs
Как сравнить 2 или более хостов VMware ESXi с помощью PowerCLI.
Представляю вам функцию Compare-VMHost из моего PowerCLI модуля Vi-Module, которая позволяет сравнивать один или группу хостов ESXi с эталонным хостом. Что именно будет сравниваться, регулируется параметром –Compare. На данный момент функция умеет сравнивать по следующим критериям... Таги: VMware, PowerCLI, Blogs, ESXi, vSphere
Как просматривать датасторы VMware с помощью PowerCLI.
Вы уверены, что знаете, что происходит на ваших датасторах? Где хранятся ваши ISO-образы? Сколько у вас «осиротевших» (orphaned) виртуальных дисков? Каков их размер, и как давно они там? И что ещё занимает совсем недешёвое пространство на вашей СХД? Функция Search-Datastore из моего PowerCLI модуля Vi-Module ответит вам на все эти и многие другие вопросы. Таги: VMware, PowerCLI, Storage, VMDK, VMachines
Контент-пак VMware Site Recovery Manager (SRM) для vRealize Log Insight.
Как вы знаете, у VMware есть замечательное решение для сбора и анализа логов vRealize Log Insight, которое позволяет осуществлять поиск любых данных в виртуальной инфраструктуре и предоставляет мощные возможности аналитики по этим данным. Функциональность этого решения можно расширять за счет контент-паков для соответствующих продуктов, которые дают дополнительные возможности, связанные с их рабочими процессами. На днях компания VMware выпустила Site Recovery Manager (SRM) content pack для vRealize Log Insight.
Для начала работы с контент-паком вам потребуется версия Log Insign 3.0 или выше (сейчас актуальная 3.3). На дэшборде мы увидим основные события, касающиеся различных компонентов инфраструктуры SRM:

Вкладки SRA Overview и SRA Device Overview позволяют понять состояние адаптеров SRA и процесса репликации в целом:

Вкладка SRM Virtual Machine Overview позволяет просматривать и анализировать состояние защищенных виртуальных машин в разрезе хранилищ, на которых они находятся:

Кроме того, можно смотреть события в разрезе групп хранилищ, защищаемых SRM (Datastore Groups).
Напомним также, что у VMware есть контент паки для решений VMware NSX, Virtual SAN, vRealize Automation, vRealize Operations Manager а также многих других продуктов и партнерских решений. Они, как и контент-пак для SRM, доступны для загрузки с сайта VMware Solution Exchange. Таги: VMware, Log Insight, SRM
Очередные обновления vSphere HTML5 Web Client и Embedded Host Client.
На прошлой неделе мы писали о последних обновлениях vSphere HTML5 Web Client, а сейчас уже готова версия
HTML5 Web Client 1.17.
Напомним, что VMware vSphere HTML5 Web Client заменит снимаемый с производства vSphere C# Client в следующем релизе серверной платформы виртуализации vSphere.

Новые возможности веб-клиента:
- Добавлена информация о протоколах CDP и LLDP для физических сетевых адаптеров.
- Новый список "Hardware acceleration" для виртуальных хранилищ ([Datastore] -> Configure -> Hardware acceleration), содержащий настройки оборудования, поддерживающего последние фичи от VMware.
- Новый список "Device Backing" для VMFS-хранилищ ([Datastore] -> Configure -> Device Backing).
- Примененные действия HA responses, которые выполнялись при отказах хостов, можно увидеть на экране VM summary.
- Кастомные атрибуты виртуальных машин и тэги теперь доступны из action-меню.
Скачать vSphere HTML5 Web Client версии 1.17 можно по этой ссылке.
Кроме того, не так давно обновился и ESXi Embedded Host Client до версии 1.7 (он же Fling 10). Последний раз мы писали об обновлении этого тонкого клиента для управления ESXi-серверами вот тут. С тех пор прошло полтора месяца, но в этом релизе особо нового ничего нет, большинство улучшений - это багофиксы.

Новые возможности ESXi Embedded Host Client 1.7:
- Новый диалог фидбэка для пользователя, который может теперь мгновенно отправить сообщение разработчикам прямо из интерфейса продукта, не ходя на сайт VMware Labs.
- Появилось больше переводов на другие языки.
- Возможность ресайзить и менять взаимное положение колонок в таблицах, что сохраняется при следующих запусках.
- Теперь можно менять приветственные нотификации прямо в Host Client.
- Пофикшены баги с консолью в полноэкранном режиме.
- Возможность поменять дефолтную HTML-консоль на VMRC при клике на скриншот виртуальной машины в клиенте.
- Добавлено несколько колонок, которые можно показать для списка ВМ.
- Удаление виртуального коммутатора также удаляет и группы портов, которые были привязаны к этому свичу.
Скачать ESXi Embedded Host Client 1.7 можно по этой ссылке. Таги: VMware, vSphere, Web Client, Update, ESXi, Host Client, Labs
Новые версии VMware vSphere HTML5 Web Client - 1.14, 1.15 и 1.16.
Давно что-то мы не писали про обновления тонкого клиента для управления виртуальной инфраструктурой VMware vSphere HTML5 Web Client (в прошлый раз мы писали про версии 1.12 и 1.13), а за прошедшие пару недель вышло сразу 3 обновления - версии Web Client 1.14, 1.15 и 1.16.
Напомним, что VMware vSphere HTML5 Web Client заменит снимаемый с производства vSphere C# Client в следующем релизе серверной платформы виртуализации vSphere.

Новые возможности последних версий веб-клиента:
- Работает мониторинг состояния аппаратных компонентов (состояния сенсоров).
- Возможность создания нового объекта Datacenter.
- Добавление новых адаптеров VMkernel.
- Можно редактировать расширенные настройки HA advanced settings.
- Можно менять действие HA response для условий APD и PDL.
- Возможность создания снапшота запущенной виртуальной машины с ее памятью.
- Назначение и удаление тэгов объектов, которые видны для всех объектов.
- Новый список "Connectivity and Multipathing" для VMFS-хранилищ ([Datastore] -> Configure -> Connectivity and Multipathing).
- Графики производительности (performance charts) теперь имеют возможность обновляться в реальном времени.
- Возможность ввода адреса IPv4 при кастомизации ОС в процессе клонирования виртуальной машины.
- Хосты ESXi можно перевести в режим standby и снова включить их обратно.
- Можно редактировать HA datastores for heartbeat.
- Можно менять политики старта сервисов при загрузке ESXi и состояние сервисов.
- Возможность изменения кастомных атрибутов (имена и значения).
- Создание виртуальной машины в папке.
- Новый Datastore wizard, который позволяет выбрать хост ESXi.
Скачать VMware vSphere HTML5 Web Client версии 1.16 можно по этой ссылке. Таги: VMware, Web Client, Update, vSphere, ESXi
Максимальные конфигурации VMware vSphere и Site Recovery Manager по версиям платформы.
На сайте vcommunique.blogspot.ru появилась интересная табличка в которой приведены максимальные конфигурации хостов, серверов vCenter, виртуальных машин и других компонентов виртуального датацентра в сравнительной таблице, где представлена информация для различных версий платформы VMware vSphere и средства катастрофоустойчивости Site Recovery Manager (SRM).
Вот так прогрессировали vSphere и SRM от версии к версии:
| Максимально поддерживаемая конфигурация / Версия платформы
| 6
| 5.5
| 5.1
| 5
| 4.1
| 4
|
| Число Virtual CPU на виртуальную машину (Virtual SMP) |
128 |
64 |
64 |
32 |
8 |
8 |
| Объем оперативной памяти (RAM) на ВМ |
4 TB |
1TB |
1TB |
1TB |
255GB |
255GB |
| Размер виртуального диска |
62 TB |
62TB |
2TB |
2TB |
2TB |
2TB |
| Число виртуальных дисков |
На хост - 2048
На Datastore Cluster - 9000 |
60 |
60 |
60 |
60 |
60 |
| Логических CPU на хост |
480 |
320 |
160 |
160 |
160 |
20 |
| Виртуальных машин на хост |
1024 |
512 |
512 |
512 |
320 |
320 |
| Виртуальных CPU на хост |
4096 |
4096 |
2048 |
2048 |
512 |
512 |
| Виртуальных CPU на ядро |
32 |
32 |
25 |
25 |
25 |
20 |
| Оперативной памяти (RAM) на хост |
6 TB |
4TB |
2TB |
2TB |
1TB |
1TB |
| Размер LUN |
64 TB |
64TB |
64TB |
64TB |
2TB |
2TB |
| Raw Device Mapping size (virtual compatibility) |
62TB |
62TB |
2TB |
2TB |
2TB |
2TB |
| Размер диска Raw Device Mapping в режиме физической совместимости (Physical RDM) |
64TB |
64TB |
64TB |
64TB |
2TB |
2TB |
| Виртуальных машин в кластере |
8000 |
4000 |
4000 |
3000 |
3000 |
1280 |
| Пулов ресурсов в кластере |
1600 |
1600 |
1600 |
1600 |
512 |
512 |
| Хостов на один vCenter Server |
1000 |
1000 |
1000 |
1000 |
1000 |
200 |
| Число хостов в виртуальном датацентре |
500 |
500 |
500 |
500 |
400 |
100 |
| Включенных виртуальных машин на один vCenter Server |
10000 |
10000 |
10000 |
10000 |
10000 |
2000 |
| Зарегистрированных виртуальных машин на один vCenter Server |
15000 |
15000 |
15000 |
15000 |
15000 |
3000 |
| Число распределенных коммутаторов (Distributed switches, VDS) на один vCenter |
128 |
128 |
128 |
32 |
32 |
16 |
| Single Sign On (SSO) |
Требуется |
Требуется |
Требуется |
Не доступен |
Не доступен |
Не доступен |
| Параметры VMware Site Recovery Manager (SRM)
|
| Число защищенных виртуальных машин всего |
5000 |
1000 |
1000 |
1000 |
1000 |
1000 |
| Число защищенных ВМ в одной protection group |
500 |
500 |
500 |
500 |
500 |
500 |
| Число Protection groups на один recovery plan |
250 |
250 |
150 |
150 |
150 |
150 |
| Число Datastore groups |
255 |
255 |
150 |
150 |
150 |
150 |
| Число одновременно запущенных планов восстановления (recovery plans) |
10 |
10 |
10 |
10 |
3 |
3 |
Таги: VMware, vSphere, SRM
Новые возможности VMware vSphere HTML5 Web Client 1.8 и 1.9.
Совсем недавно мы писали о новых возможностях vSphere HTML5 Web Client версий 1.6 и 1.7, а на днях подоспели уже адейты 1.8 и 1.9. Видно, что VMware очень торопится, чтобы успеть доработать тонкий клиент перед полным списанием vSphere C# Client в следующей версии платформы vSphere.

Давайте взглянем на новые возможности VMware vSphere HTML5 Web Client 1.8 и 1.9:
- Теперь можно просматривать и редактировать настройки кластера VMware DRS и DPM.
- Можно просматривать настройки heartbeat datastores и механизма VMware HA admission control.
- На уровне кластера можно просматривать и редактировать совместимость ВМ по умолчанию.
- Мастер добавления хоста приобрел раздел настроек режима lockdown mode.
- При добавлении хоста в кластер теперь можно создавать новый пул ресурсов с виртуальными машинами этого хоста.
- Алармы теперь отображаются в нижней панели, что освободило место в центре.
- Возможность монтирования установщика VMware Tools в ВМ.
- При создании виртуальной машины в кластере DRS можно выбрать различные рекомендации кластера хранилищ (datastore cluster recommendations).
- При клонировании ВМ можно отключить Storage DRS (SDRS).
- Мастер добавления отдельного хоста ESXi теперь позволяет выбрать размещение виртуальных машин.
Также было сделано множество мелких улучшений и исправлений ошибок. Скачать VMware vSphere HTML5 Web Client 1.9 можно по этой ссылке. Таги: VMware, vSphere, Web Client, Update, Labs
Почему Storage DRS не поддерживается для VVols в VMware vSphere?
Интересный пост о технологии VVols появился на блогах VMware. Дескать, их часто спрашивают - почему средства балансировки нагрузки на хранилища Storage DRS не поддерживаются для томов VVols?
Для ответа на этот вопрос надо рассмотреть, как работает традиционная архитектура хранилищ, которая была до VVols и кластеров Virtual SAN. Обычный дисковый массив или хост можно представить набором носителей двух типов (HDD и Flash), которые дают суммарно некоторую емкость.
Например, у нас 160 ТБ на СХД, которые мы разбиваем на LUN по 8 ТБ, итого получая 20 томов VMFS. Допустим, половина емкости у нас HDD, а половина - SSD. Тогда мы создадим 2 датастор-кластера (datastore cluster), в каждом из которых будет по 10 томов VMFS:

Кластер на SSD-носителях будет хранилищем яруса Gold, а HDD - Silver. Технология Storage DRS предназначена, чтобы балансировать виртуальные машины в рамках яруса между LUN для обеспечения их равномерной загрузки, как по емкости, так и по вводу-выводу. А в случае необходимости машину можно также и перенести между ярусами (Silver->Gold) с помощью технологии Storage vMotion.
Все это вызвано сложной структурой хранилищ, которая "прячет" виртуальную машину от дискового массива, представляя ее в конечном счете как набор дисковых блоков, ничем не отличающихся таковых при подключении физических серверов.
В случае же с VVols дело обстоит совсем иначе: на все хранилище создается один Storage Container, который объединяет собой все 160 ТБ доступной емкости - и Flash, и HDD. И этот контейнер представляет собой единственный объект для хранения виртуальных машин с томами VVols:

То есть все операции по балансировке данных виртуальных машин (на уровне дисковых объектов VVols) передаются на сторону СХД, которая лучше знает, как правильно распределять данные и обеспечивать необходимый уровень обслуживания на базе политик (Storage Policies), привязанных к ярусам. Это, конечно же, требует некоторой работы со стороны производителей систем хранения, зато избавляет от забот саму VMware, которая универсализовала технологию VVols и средства работы с ней.
То есть, VVols не требует наличия Storage DRS - технологии, которая уйдет со временем на уровне отдельных аппаратных хранилищ, но будет полезной для балансировки в среде, где есть несколько СХД или кластеров хранилищ от одного или нескольких вендоров. Таги: VMware, VVols, Storage, SDRS, vSphere
Как узнать версию любого объекта VMware? Используйте Get-Version!
Очень часто мне, как и любому администратору виртуальной инфраструктуры VMware, требуется знать версию того или иного объекта. Это может быть версия VMTools/vHardware виртуальной машины или версия vSphere хоста ESXi или версия VMFS-датастора (продолжите список сами). И каждый раз вы начинаете судорожно вспоминать, как это делается, где и какой скрипт искать или пускаетесь в поиски по форумам или обращаетесь к доктору Google). Таги: VMware, vSphere, PowerCLI, VMachines, ESXi, Blogs
VMware ESXi 6.0 - создание на одном диске (LUN) нескольких разделов и томов VMFS.
Зачастую в тестовом окружении вам нужно создать несколько томов VMFS (например, для тестирования технологии Storage DRS и создания кластера хранилищ), но диск на машине только один. В этом случае можно вручную нарезать этот диск на разделы и отформатировать их в тома VMFS 5, которые будут использоваться в качестве виртуальных хранилищ.
Для этих целей можно использовать 2 утилиты, входящие в состав VMware ESXi 6 - PartedUtil и vmkfstools. Помните, что метод, изложенный ниже, не поддерживается для производственных систем. Используйте его только в тестовом окружении!
Итак, заходим на хост ESXi, напрямую или по SSH. Сначала нужно найти имя устройства. Для этого можно воспользоваться командой:
fdisk –l
Либо для подробной информации можно взять следующую:
esxcli storage core path list
В качастве вывода мы получим что-то вроде этого:
sata.vmhba34-sata.0:0-t10.ATA_____WDC_WD10EALX2D009BA0__________________________WD2DWCATR6576288
UID: sata.vmhba34-sata.0:0-t10.ATA_____WDC_WD10EALX2D009BA0__________________________WD2DWCATR6576288
Runtime Name: vmhba34:C0:T0:L0
Device: t10.ATA_____WDC_WD10EALX2D009BA0__________________________WD2DWCATR6576288
Device Display Name: Local ATA Disk (t10.ATA_____WDC_WD10EALX2D009BA0__________________________WD2DWCATR6576288)
Adapter: vmhba34
Channel: 0
Target: 0
LUN: 0
Plugin: NMP
State: active
Transport: sata
Adapter Identifier: sata.vmhba34
Target Identifier: sata.0:0
Adapter Transport Details: Unavailable or path is unclaimed
Target Transport Details: Unavailable or path is unclaimed
Maximum IO Size: 33553920
Можно сделать это и из vSphere Client:

Далее получаем таблицу разделов следующей командой (имя диска берем из поля Device):
partedUtil getptbl "t10.ATA_____WDC_WD10EALX2D009BA0__________________________WD2DWCATR6576288"
Диск этот пуст, и мы получим примерно такой вывод:
msdos
29185 255 63 468862128
Например, вы хотите создать на этом диске 5 разделов (LUN) по 10 ГБ каждый. При размере сектора 512 байт, размер каждого такого диска будет 20971519 секторов. При этом первые 2048 секторов диска надо пропустить, чтобы оставить место под GPT-таблицу и выровнять разделы по лучшим практикам (под 512-байтные секторы).
Получаем следующий план разбиения разделов с номерами начальных и конечных секторов:
P1 2048-20973567
P2 20973568-41945087
P3 41945088-62916607
P4 62916608-83888127
P5 83888128-104859647
Претворяем его в жизнь с помощью partedUtil:
partedUtil setptbl "t10.ATA_____WDC_WD10EALX2D009BA0__________________________WD2DWCATR6576288" gpt "1 2048 20973567 AA31E02A400F11DB9590000C2911D1B8 0" "2 20973568 41945087 AA31E02A400F11DB9590000C2911D1B8 0" "3 41945088 62916607 AA31E02A400F11DB9590000C2911D1B8 0" "4 62916608 83888127 AA31E02A400F11DB9590000C2911D1B8 0" "5 83888128 104859647 AA31E02A400F11DB9590000C2911D1B8 0"
Что такое "AA31E02A400F11DB9590000C2911D1B8" в данной команде? Это GUID разделов VMFS.
Далее с помощью partedUtil getptbl или другой команды выведем список разделов и получим следующее:
gpt
29185 255 63 468862128
1 2048 20973567 AA31E02A400F11DB9590000C2911D1B8 vmfs 0
2 20973568 41945087 AA31E02A400F11DB9590000C2911D1B8 vmfs 0
3 41945088 62916607 AA31E02A400F11DB9590000C2911D1B8 vmfs 0
4 62916608 83888127 AA31E02A400F11DB9590000C2911D1B8 vmfs 0
5 83888128 104859647 AA31E02A400F11DB9590000C2911D1B8 vmfs 0
Разделы созданы, осталось отформатировать их под VMFS 5. Для этого воспользуемся утилитой vmkfstools и создадим Datastore 1 на первом разделе диска:
vmkfstools -C vmfs5 -S Datastore1 t10.ATA_____WDC_WD10EALX2D009BA0__________________________WD2DWCATR6576288:1
Аналогичные действия нужно будет проделать и с оставшимися четырьмя датасторами, после чего они станут видны в клиенте vSphere. Более подробно о процедуре изложено в KB 1009829.
Таги: VMware, VMFS, Storage, ESXi, Обучение, Blogs
Вышел vSphere HTML5 Web Client 1.5 - новые возможности.
Совсем недавно мы писали об обновлении следующего поколения тонкого клиента vSphere HTML5 Web Client версий 1.3 и 1.4, а вчера вышел HTML5 Web Client 1.5.

Новые возможности и улучшения VMware vSphere HTML5 Web Client 1.5:
- Теперь можно смотреть статус и редактировать настройки EVC-совместимого кластера.
- Можно просматривать состояние кластеров VMware DRS и HA.
- Возможность просмотра информации о профиле хоста (host profile) в настройках.
- Возможность просматривать статус lockdown mode и пользователей в списке исключений, имеющих доступ.
- Функция снятия снапшота виртуальной машины.
- Новый список TCP/IP stacks для хостов.
- Из списка датасторов теперь можно открыть Datastore Browser из контекстного меню.
Скачать VMware vSphere HTML5 Web Client 1.5 можно по этой ссылке. Таги: VMware, Web Client, Update, vSphere
Обновления vSphere HTML5 Web Client - версии 1.3 и 1.4.
На прошлой неделе компания VMware обновила не только клиент для управления хостами VMware ESXi Embedded Host Client до версии 8, но и выпустила обновление нового тонкого клиента для управления виртуальной инфраструктурой vSphere HTML5 Web Client 1.4. Напомним, что в конце апреля мы уже писали про новые возможности версии HTML5 Web Client 1.2, а ниже рассмотрим новые возможности сразу двух версий - 1.3 и 1.4, которые были выпущены с очень небольшим интервалом совсем недавно.

Итак, что нового в vSphere HTML5 Web Client 1.3/1.4:
- Теперь при создании виртуальной машины можно выбрать кластер хранилищ (datastore cluster) в качестве хранилища ВМ (но пока нельзя отключить DRS).
- Возможность загрузить файл на Datastore (
[Datastore] -> Manage -> Files). При этом не требуется Client Integration Plugin.
- Виртуальные машины теперь можно мигрировать между пулами ресурсов (Resource Pools).
- Лучше стало работать добавление устройств к виртуальной машине - теперь есть единое меню.
- Имена файлов самого виртуального модуля теперь отражают версии клиента (OVA и RPM).
- В Inventory теперь больше информации о виртуальных сервисах vApps.
- Появилась возможность редактирования настроек SCSI-контроллера.
- Появилась возможность горячего удаления CD/DVD-приводов.
- Также было исправлено несколько серьезных багов, список которых приведен вот тут.
Скачать последнюю версию vSphere HTML5 Web Client 1.4 можно по этой ссылке.
Таги: VMware, Web Client, Update, Labs, vSphere
Вышел vSphere HTML5 Web Client 1.2 - новые возможности.
Только в понедельник мы писали о трех скрытых возможностях в vSphere HTML5 Web Client, а вот буквально вчера VMware выпустила обновление следующего поколения тонкого клиента для управления виртуальной инфраструктурой - vSphere HTML5 Web Client 1.2, где есть одна из этих возможностей уже включенная в GUI клиента. Напомним, что о версии 1.1 h5client мы писали недавно вот тут.

Кстати, недавно также обновился и дизайн проекта VMware Labs (по-моему, стало хуже - будто бы это версия для слабовидящих).
Давате посмотрим, что нового в vSphere HTML5 Web Client 1.2:
- Появился Datastore browser, позволяющий просматривать содержимое виртуальных хранилищ ([Datastore] -> Manage -> Files).
- Возможность загрузки файла с виртуального хранилища.
- Перенаправление URL: ваши старые браузерные закладки для Web Client теперь должны работать, например вот такие ссылки:
https://[h5client ip or domain name]/vsphere-client
https://[h5client ip or domain name]:9443/vsphere-client
Перенаправляют на h5client:
https://[ip or domain name]:9443/ui
Это потребует запустить скрипт "firewall.sh", информация о котором доступна на шаге 5 инструкций по установке. Надо просто выполнить следующую команду:
/usr/lib/vmware-vsphere-client/scripts/firewall.sh
- Возможность отключения CD/DVD-драйва, сетевого адаптера или виртуального жесткого диска от существующей или новой виртуальной машины.
- Добавление всех устройств к ВМ теперь происходит из единого меню.
Скачать vSphere HTML5 Web Client 1.2 можно по этой ссылке.
Таги: VMware, Web Client, Update, vSphere, Labs
Три скрытых возможности нового vSphere HTML5 Web Client. платформой vSphere - HTML5 Web Client 1.1. Эта версия заменит собой текущий Web Client, который сейчас работает на основе тормозной технологии Adobe Flex.
Оказывается в HTML5 Web Client есть три скрытых возможности, о которых написал Emad Younis, и которые, видимо, еще находятся не в очень стабильном состоянии, поэтому разработчики решили отключить их. Но так как вы используете новый клиент только в целях тестирования - то давайте включим их и посмотрим, что это за фичи.
1. Итак, заходим на vSphere HTML5 Web Client Fling Appliance по SSH.
2. Переходим в папку /etc/vmware/vsphere-client/vsphereFeatures:
# cd /etc/vmware/vsphere-client/vsphereFeatures

3. Находим там файл vsphereFeatures.cfg и открываем его для редактирования в редакторе vi:
# vi vsphereFeatures.cfg

4. Видим там, что некоторые 3 фичи настроены в состояниях disabled. Это:
- Datastore File Browser
- Add Host Wizard
- Network Selector
5. Включим какую-нибудь из них, например, файловый браузер:

6. Перезапустим веб-службы Web Client следующей командой:
# /etc/init.d/vsphere-client restart

7. Теперь зайдем в консоль веб-клиента по адресу:
https://<имя или IP модуля>:9443/ui
И перейдем в раздел Datastore –> Manage –> Files, там мы и увидим файловый браузер:

8. Теперь запустим Add Host Wizard для добавления нового хост-сервера VMware ESXi в кластер:

И попробуем добавить новый хост:

9. Ну а расширенный выбор VM Network находится в настройках виртуальной машины VM –> Network Adapter –> Network drop down –> Show more networks:

Скорее всего, эти 3 фичи появятся в следующей версии HTML5 Web Client, а ждать ее осталось недолго. Но ведь и там будет файлик vsphereFeatures.cfg, в котором можно будет взглянуть на следующие новые возможности нового поколения тонкого клиента VMware vSphere.
Таги: VMware, Web Client, Update, vSphere, ESXi, Обучение, Blogs
Очередное обновление RVTools 3.8 - новые возможности.
Те из вас, кто уже давно администрирует платформу VMware vSphere, знает о такой штуке RVTools, которая помогает в выполнении многих административных задач. О прошлой версии RVTools 3.7 мы писали где-то год назад, а совсем недавно вышел очередной апдейт утилиты - RVTools 3.8.

Давайте вкратце посмотрим на новые возможности RVTools 3.8 (полный их список доступен тут):
- VI SDK изменился с версии 5.5 на 6.0.
- Новые поля на вкладке vInfo:
- ChangeVersion - уникальный идентификатор конфигурации
- статус HA VM Monitoring
- число поддерживаемых мониторов и видеопамяти в килобайтах
- статус конфигурации (конкретные проблемы с конфигом видны на вкладке vHealth)
- операционная система (то, что дает VMware Tools)
- Новые поля на вкладке vTools:
- App state, App heartbeat и статус Kernel crash
- Доступность операций: поддержка изменения статуса и доступность интерактивных операций с гостевой ОС
- На вкладке vHost появился статус NTPD.
- Проблемы с NTP теперь видны на вкладке vHealth.
- Новое поле Config status добавлено на вкладках vHost, vCluster и vDatastore
- На вкладке vSC+VMK добавлены поля IP 6 Address и IP 6 Gateway.
- Все вкладки, относящиеся к виртуальным машинам, теперь имеют колонки VM Object ID, VM UUID, powerstate и template. Колонки Custom Attributes упорядочены по алфавиту.
- На всех вкладках появилась колонка vCenter UUID.
- Множество исправлений ошибок.
Скачать RVTools 3.8 можно по этой ссылке. Документация доступна тут.
Таги: VMware, RVTools, Update, Blogs, Troubleshooting
Вышел VMware ESXi Embedded Host Client v5 - новые возможности.
Мы часто пишем о веб-консоли для управления отдельными хост-серверами VMware ESXi Embedded Host Client, которая для многих администраторов уже стала инструментом, используемым каждый день. На днях компания VMware выпустила обновленную версию ESXi Embedded Host Client v5, которая доступна для загрузки на сайте проекта VMware Labs.

На самом деле, нового в VMware ESXi Embedded Host Client 5 не так много, но говорят, что было исправлено очень много багов:
Хост-серверы
- Улучшения в разделе мониторинга производительности (ресайз и поведение тултипов).
Виртуальные машины
- Возможность простого экспорта виртуальной машины (базовые функции).
- Поддержка клавиатур IT/ES в браузерной консоли.
- Исправлены серьезные ошибки при операциях с дисковым контроллером (добавление/удаление, назначение дисков и т.п.).
Хранилища
- Исправлена сортировка в datastore browser.
Общие улучшения
- Улучшенное поведение таблиц (включая возможности выбора объектов, колонок и фильтрации).
- Более производительная панель Recent Tasks.
- Улучшенная производительность таблицы виртуальных машин.
- Улучшенное поведение контекстных меню на iPad.
- Возможность перетаскивать и ресайзить окна и диалоги на iPad.
- Множество исправлений ошибок.
Скачать VMware ESXi Embedded Host Client 5 можно по этой ссылке. Кстати, таблица совместимых браузеров:

Таги: VMware, Host Client, Client, vSphere, ESXi, Update, Labs
|
|  |
|